907 resultados para Filtro digital (Matemática)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho trata da filtragem e reconstrução de sinais em frequência intermediária usando FPGA. É feito o desenvolvimento de algoritmos usando processamento digital de sinais e também a implementação dos mesmos, constando desde o projeto da placa de circuito impresso, montagem e teste. O texto apresenta um breve estudo de amostragem e reconstrução de sinais em geral. Especial atenção é dada à amostragem de sinais banda-passante e à análise de questões práticas de reconstrução de sinais em frequência intermediária. Dois sistemas de reconstrução de sinais baseados em processamento digital de sinais, mais especificamente reamostragem no domínio discreto, são apresentados e analisados. São também descritas teorias de processos de montagem e soldagem de placas eletrônicas com objetivo de definir uma metodologia de projeto, montagem e soldagem de placas eletrônicas. Tal metodologia é aplicada no projeto e manufatura do protótipo de um módulo de filtragem digital para repetidores de telefonia celular. O projeto, implementado usando FPGA, é baseado nos dois sistemas supracitados. Ao final do texto, resultados obtidos em experimentos de filtragem digital e reconstrução de sinais em frequência intermediária com o protótipo desenvolvido são apresentados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apresentamos dois algoritmos automáticos, os quais se utilizam do método dos mínimos quadrados de Wiener-Hopf, para o cálculo de filtros lineares digitais para as transformadas seno, co-seno e de Hankel J0, J1 e J2. O primeiro, que otimiza os parâmetros: incremento das abscissas, abscissa inicial e o fator de deslocamento utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas co-seno, seno e o segundo, que otimiza os parâmetros: incremento das abscissas e abscissa inicial utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas de Hankel J0, J1 e J2. Esses algoritmos levaram às propostas de novos filtros lineares digitais de 19, 30 e 40 pontos para as transformadas co-seno e seno e de novos filtros otimizados de 37 , 27 e 19 pontos para as transformadas J0, J1 e J2, respectivamente. O desempenho dos novos filtros em relação aos filtros existentes na literatura geofísica é avaliado usando-se um modelo geofísico constituído por dois semi-espaços. Como fonte usou-se uma linha infinita de corrente entre os semi-espaços originando, desta forma, transformadas co-seno e seno. Verificou-se melhores desempenhos na maioria das simulações usando o novo filtro co-seno de 19 pontos em relação às simulações usando o filtro co-seno de 19 pontos existente na literatura. Verificou-se também a equivalência de desempenhos nas simulações usando o novo filtro seno de 19 pontos em relação às simulações usando o filtro seno de 20 pontos existente na literatura. Adicionalmente usou-se também como fonte um dipolo magnético vertical entre os semi-espaços originando desta forma, transformadas J0 e J1, verificando-se melhores desempenhos na maioria das simulações usando o novo filtro J1 de 27 pontos em relação ao filtro J1 de 47 pontos existente na literatura. Verificou-se também a equivalência de desempenhos na maioria das simulações usando o novo filtro J0 de 37 pontos em relação ao filtro J0 de 61 pontos existente na literatura. Usou-se também como fonte um dipolo magnético horizontal entre os semi-espaços, verificando-se um desempenho análogo ao que foi descrito anteriormente dos novos filtros de 37 e 27 pontos para as respectivas transformadas J0 e J1 em relação aos filtros de 61 e 47 pontos existentes na literatura, destas respectivas transformadas. Finalmente verificou-se a equivalência de desempenhos entre os novos filtros J0 de 37 pontos e J1 de 27 pontos em relação aos filtros de 61 e 47 pontos existentes na literatura destas transformadas, respectivamente, quando aplicados em modelos de sondagens elétricas verticais (Wenner e Schlumberger). A maioria dos nossos filtros contêm poucos coeficientes quando comparados àqueles geralmente usados na geofísica. Este aspecto é muito importante porque transformadas utilizando filtros lineares digitais são usadas maciçamente em problemas numéricos geofísicos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Durante años, ha predominado en la educación matemática local una visión de las matemáticas que sobrestima los aspectos formales, simbólicos, abstractos de las mismas, y que enfatiza su separación del entorno sociocultural, y subestima su relación simbiótica con el mundo. Este predominio se ha dado no meramente en los libros de texto usados, sino en la práctica educativa, en la clase. Sin duda, ésta ha sido una condición para obstaculizar el aprendizaje de las matemáticas. No es la única condición, pero si una de las que han ayudado a los bajos niveles de promoción que suele tener esta disciplina en los diferentes niveles de la educación costarricense. Esta visión estuvo asociada a la reforma de las matemáticas “modernas” en los cincuenta y sesenta internacionalmente (véase [Ruiz, 1993] o [Kline, 1980], [Kuntzmann, 1978], [Thom, 1980]), en el “purismo” que se enfatizó como premisa ideológica en los setentas y ochentas en nuestras universidades(véase [Ruiz, 1995]), así como en asuntos de profundidad histórica, filosófica y especialmente epistemológica. Con relación a esto último, debe señalarse la fuerza de posiciones que han colocado a las matemáticas en territorio a priori, y enfatizado sus aspectos formales, axiomáticos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La idea del artículo es presentar las pruebas del teorema de Liouville sobre funciones enteras. En este trabajo recalcamos dos importantes aplicaciones, una en la demostración del teorema fundamental del álgebra y otra en el área de las aplicaciones conformes. El presente contiene una breve nota histórica de la vida de Joseph Liouville y su trabajo. También contiene la version del teorema de Liouville para funciones doblemente periódicas, funciones armónicas y aplicaciones cuasiconformes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se presenta un breve recorrido sobre los principales rasgos históricos detrás de las fracciones continuadas; su notación, definición, aplicaciones a la geometría y algunos ejemplos de éstas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Con frecuencia se presenta la oportunidad de ajustar curvas a un conjunto de datos representados por puntos. Las técnicas desarrolladas para este fin dependen, fundamentalmente, de la naturaleza de los datos involucrados. El propósito de este trabajo es introducir a los alumnos de Cálculo Numérico, en el uso de la técnica de ajuste de curvas por medio de la interpolación en la solución de problemas de ingeniería, utilizando el paquete MATLAB. Además de que se espera que los alumnos asimilen y dominen los conceptos específicos impartidos referidos a la interpolación, se pretende que comprueben lo indispensable de la utilización de una computadora para resolver este tipo de problemas. También se espera, a partir de las distintas actividades propuestas a realizar por los alumnos, que observen y reconozcan cuándo la interpolación polinomial resulta apropiada arribando así, a resultados satisfactorios. Es decir que en esta primer instancia, se espera que los alumnos hayan aprendido a valorar la confiabilidad de las respuestas y ser capaces de escoger el mejor método (o métodos) para cualquier problema que deben afrontar frecuentemente en la práctica de la ingeniería o en diferentes problemas científicos o tecnológicos. Además, como resultado del análisis y comprensión de las actividades presentadas en este trabajo, se pretende introducir a los alumnos en el uso de la técnica de ajuste de curvas por medio de la regresión, a fin de que comprendan la diferencia entre interpolación y regresión, y que el confundirlos puede llevarlos a resultados erróneos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se analiza la polémica entre Cavalieri y Guldin sobre el concepto de lo indivisible.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Algunos profesores presentan dificultades para enseñar probabilidad, sobre todo en países en los que la incorporación de esta materia en el currículo es reciente y la preparación durante la formación inicial es escasa, como es el caso de Chile. Para diseñar programas de intervención que den lugar a una enseñanza idónea, se realiza un estudio exploratorio sobre el conocimiento didáctico-matemático para enseñar probabilidad, fundamentado en el modelo del Conocimiento Didáctico-Matemático (CDM). Con este propósito se ha administrado el Cuestionario CDM-Probabilidad a 93 profesores, cuyos resultados han puesto de manifiesto varios errores y dificultades, evidenciando la presencia de heurísticas y sesgos probabilísticos. Se concluye que es necesaria una mayor especialización del profesorado en todas las facetas de su conocimiento didáctico-matemático: conocimiento común del contenido, conocimiento ampliado del contenido y conocimiento especializado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Analizamos algunos aspectos de los aportes matemáticos de Oresme y un resumen de dos capítulos de su libro sobre las adivinaciones.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este artículo se pretende mostrar de una manera gráfica y dinámica, las diferentes trazas que se pueden realizar sobre una superficie cuádrica, cuando ésta es intersecada por un plano paralelo a alguno de los planos coordenados y su implementación en el programa GeoGebra.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este artículo se analiza la posición que ocupa Laplace en el desarrollo de la teoría clásica de la probabilidad. Se hace en el marco de los 200 años de la publicación del "Essai philosophique sur les probabilités". El artículo se divide en las siguientes secciones: en la primera se introducen algunas de las características de las matemáticas del periodo. En la segunda, se presentan algunos de los desarrollos fundamentales en la teoría de la probabilidad alcanzados durante los siglos XVII y XVIII. Finalmente, presentamos algunas de las principales contribuciones de Laplace. En general, se considera que con Laplace la teoría clásica de la probabilidad adquiere su forma definitiva.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este artículo se describe el proceso de instalación y utilización del paquete PythonTeX en la elaboración de un texto reproducible y dinámico. Se indican los requisitos tecnológicos y el protocolo de su operación a partir de ejemplos en que se realizan operaciones con matrices y se hacen cálculos elementales de estadística descriptiva.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La simulación computacional de problemas de probabilidad permite obtener sus soluciones a través de la frecuencia relativa del número de éxitos obtenidos en los n experimentos realizados. La ley de los grandes números respalda una buena aproximación de la probabilidad teórica de un evento a través de la repetición sucesiva de experimentos. A continuación se presentan una serie de problemas probabilísticos con una posible simulación realizada en los paquetes Fathom y Excel. La solución teórica de estos problemas requiere conocimientos básicos de probabilidad, por lo que las simulaciones realizadas buscan dar una propuesta de solución a estos problemas sin tener que acudir al formalismo matemático.